Lịch sử BERT_(mô_hình_ngôn_ngữ)

BERT có nguồn gốc từ các biểu diễn theo ngữ cảnh trước đào tạo trước bao gồm học trình tự bán giám sát (semi-supervised sequence learning),[5] Generative Pre-Training, ELMo,[6] and ULMFit.[7] Không như các mô hình trước đó, BERT là mộtbiểu diễn ngôn ngữ không giám sát và hai chiều sâu, được đào tạo trước chỉ sử dụng một kho ngữ liệu văn bản thuần túy.

Các mô hình không có ngữ cảnh như Word2vec hay GloVe (học máy) tạo ra các biểu diễn từ nhúng đơn cho mỗi từ trong tập từ vựng, trong khi đó BERT tính đến ngữ cảnh cho mỗi lần xuất hiện của một từ cho trước. Ví dụ: vectơ của từ "running" sẽ có một biểu diễn vectơ Word2vec giống nhau trong hai lần xuất hiện của từ "running" trong các câu "He is running a company" và "He is running a marathon", trong khi đó BERT sẽ cung cấp một nhúng theo ngữ cảnh mà sẽ là khác nhau tùy thuộc theo câu ví dụ.

Vào ngày 25 tháng 10 năm 2019, Google Tìm kiếm thông báo rằng họ đã bắt đầu áp dụng các mô hình BERT cho các truy vấn tìm kiếm bằng Tiếng Anh tại Hoa Kỳ.[8] Vào ngày 09 tháng 12 năm 2019, có báo báo cho biết BERT đã được Google Tìm kiếm áp dụng cho hơn 70 ngôn ngữ.[9]

Tài liệu tham khảo

WikiPedia: BERT_(mô_hình_ngôn_ngữ) http://ai.googleblog.com/2018/11/open-sourcing-ber... http://www.arxiv.org/abs/1506.06724 http://www.arxiv.org/abs/1511.01432 http://www.arxiv.org/abs/1801.06146v5 http://www.arxiv.org/abs/1802.05365v2 http://www.arxiv.org/abs/1810.04805v2 https://github.com/google-research/bert https://www.searchenginejournal.com/google-bert-ro... https://blog.google/products/search/search-languag... https://www.blog.google/products/search/search-lan...